2025-01-06 10:36:48.AIbase.
NVIDIA e universidades lançam o "FlashInfer": nova biblioteca de kernel para melhorar a eficiência de inferência de modelos de linguagem grandes
2024-01-05 10:31:02.AIbase.
Intel Gaudi2 supera a concorrência em inferência de modelos de linguagem em larga escala
2024-01-05 10:24:34.AIbase.